609 research outputs found

    Improving the Scalability of DPWS-Based Networked Infrastructures

    Full text link
    The Devices Profile for Web Services (DPWS) specification enables seamless discovery, configuration, and interoperability of networked devices in various settings, ranging from home automation and multimedia to manufacturing equipment and data centers. Unfortunately, the sheer simplicity of event notification mechanisms that makes it fit for resource-constrained devices, makes it hard to scale to large infrastructures with more stringent dependability requirements, ironically, where self-configuration would be most useful. In this report, we address this challenge with a proposal to integrate gossip-based dissemination in DPWS, thus maintaining compatibility with original assumptions of the specification, and avoiding a centralized configuration server or custom black-box middleware components. In detail, we show how our approach provides an evolutionary and non-intrusive solution to the scalability limitations of DPWS and experimentally evaluate it with an implementation based on the the Web Services for Devices (WS4D) Java Multi Edition DPWS Stack (JMEDS).Comment: 28 pages, Technical Repor

    Gossip-based service coordination for scalability and resilience

    Get PDF
    Many interesting emerging applications involve the coordination of a large number of service instances, for instance, as targets for dissemination or sources in information gathering. These applications raise hard architectural, scalability, and resilience issues that are not suitably addressed by centralized or monolithic coordination solutions. In this paper we propose a lightweight approach to service coordination aimed at such application scenarios. It is based on gossiping and thus potentially fully decentralized, requiring that each participant is concerned only with a small number of peers. Although being obviously simple and scalable, it has been shown that gossip-based protocols lead to emergent strong resilience guarantees. We illustrate the approach with WS--PushGossip, a proof-of-concept coordination protocol based upon the WS--Coordination framework. Besides presenting WS--PushGossip, we illustrate its usefulness with a sample application, and outline a middleware implementation based on Apache Axis2.(undefined

    WS-Gossip: middleware for scalable service coordination

    Get PDF
    The evolution and growing adoption of service-oriented computing increases the demand for applications involving the coordination of very large numbers of services. The goal of WS–Gossip is to leverage gossiping in service-oriented computing as a high level structuring paradigm, thus inherently achieving scalability and resilience when coordinating large numbers of services.(undefined

    PACE: Simple Multi-hop Scheduling for Single-radio 802.11-based Stub Wireless Mesh Networks

    Get PDF
    IEEE 802.11-based Stub Wireless Mesh Networks (WMNs) are a cost-effective and flexible solution to extend wired network infrastructures. Yet, they suffer from two major problems: inefficiency and unfairness. A number of approaches have been proposed to tackle these problems, but they are too restrictive, highly complex, or require time synchronization and modifications to the IEEE 802.11 MAC. PACE is a simple multi-hop scheduling mechanism for Stub WMNs overlaid on the IEEE 802.11 MAC that jointly addresses the inefficiency and unfairness problems. It limits transmissions to a single mesh node at each time and ensures that each node has the opportunity to transmit a packet in each network-wide transmission round. Simulation results demonstrate that PACE can achieve optimal network capacity utilization and greatly outperforms state of the art CSMA/CA-based solutions as far as goodput, delay, and fairness are concerned

    Urban evolution of Fafe in the XIX and XX centuries

    Get PDF
    Dissertação de mestrado em Engenharia InformáticaThe movement of people from dispersed living to concentration in urban environments is a large change both for human civilization and for the environment. Urbanization is the process of changing from natural habitats to dense grey space made up primarily of buildings, roads, and accessory infrastructure accompanied by dense human populations. While many cities are well established, humans continue to build new cities or expand cities outward in a network of suburban environments. And urbanization is not simply about a transition from green to grey space, other abiotic changes such as changes in light regimens due to artificial lighting, increased pollution, and increased impervious surfaces leading to runoff are found in urban areas. The study of Urban Evolution of Fafe in the XIX and XX Centuries is an interesting theme not only because of the lack of works in this area but also because of the possibility of understanding the organization of the current city. The main problem that we faced it was that as the years go, the mapping and buildings of cities change. And the information of these changes is stored in texts, records, maps, etc. This fact made the study of urban evolution difficult because the information is widespread and hard to gather. So, in order to study Fafe urban evolution we needed to recover and gather information of the changes and new buildings in the city during the XIX and XX centuries. Given the inexistence of an exhaustive investigation of an urban history we had to seek to interpret from the present formation the successive processes of urbanization and respective extensions, juxtapositions and overlaps. More important is the diverse set of sources that allowed to characterize the urbanism of the city of Fafe. With that said it was important to create an integrated repository in digital format to enable its analysis and search of information, and visual exploration through a map. For that purpose, it was necessary to create ontologies related to urban evolution that allowed us to develop web-supported tools derived from these ontologies for the acquisition of the state and the location of the buildings and in order to analyze the changes as the years go by. The web-supported tools are available in http://www4.di.uminho.pt/∼gepl/UEF/.O movimento de pessoas de zonas rurais para zonas de concentração urbana é uma grande mudança tanto para a civilização humana quanto para o meio ambiente. A urbanização é o processo de transformação de zonas naturais em zonas densas e cinzas, compostas principalmente por edifícios, estradas e infraestruturas, acompanhadas por densas populações humanas. Embora muitas cidades estejam bem estabelecidas, os humanos continuam a construir novas cidades ou a expandi-Ias para fora em uma rede de ambientes suburbanos. E a urbanização não é simplesmente sobre a transição do espaço verde para o cinza, outras mudanças abióticas, como mudanças na luz devido à iluminação artificial, aumento da poluição e aumento das superfícies impermeáveis que levam ao escoamento são encontradas nas áreas urbanas. O estudo da Evolução Urbana de Fafe nos séculos XIX e XX é um tema interessante não só pela falta de trabalhos nesta área, mas também pela possibilidade de compreender a organização atual da cidade. O principal problema que nos enfrentamos foi que com o passar dos anos, o mapeamento e os edifícios das cidades mudam. E as informações dessas mudanças são armazenadas em textos, registos, mapas, etc. Esse fato dificultou o estudo do desenvolvimento urbano, pois a informação está difundida e é difícil de reunir. Para estudar a evolução urbana de Fafe, foi necessário recuperar e coletar informações sobre as mudanças e novos edifícios da cidade durante os séculos XIX e XX. Dada a inexistência de uma investigação exaustiva da história urbana, tivemos que procurar interpretar da formação atual os sucessivos processos de urbanização e respetivas extensões, justaposições e sobreposições. Mais importante é o conjunto diversificado de fontes que permitem caracterizar o urbanismo da cidade de Fafe. Com isso dito, foi importante criar um repositório integrado em formato digital para permitir sua análise, a pesquisa de informação e a exploração visual através de um mapa. Para esse efeito, foi necessário criar ontologias relacionadas com a evolução urbana que nos permitiram desenvolver ferramentas suportadas pela Web derivadas destas mesma ontologias, para a aquisições do estado e a localização dos edifícios e para analisar as mudanças á medida que os anos passam. As ferramentas suportadas pela Web estão disponíveis em http:www4.di.uminho.p/~gepl/UEF/

    Semantic annotation of electronic health records in a multilingual environment

    Get PDF
    Tese de mestrado, Bioinformática e Biologia Computacional (Bioinformática), Universidade de Lisboa, Faculdade de Ciências, 2017Os relatórios de Radiologia descrevem os resultados dos procedimentos de radiografia e têm o potencial de ser uma fonte de informação útil que pode trazer benefícios para os sistemas de saúde ao redor do mundo. No entanto, estes relatórios são geralmente escritos em texto livre e, portanto, é difícil extrair automaticamente informação a partir deles. Contudo, o fato de que a maioria dos relatórios estão agora digitalmente disponíveis torna-os passíveis de utilização de ferramentas de Prospeção de Texto (Text Mining). Outra vantagem dos relatórios de Radiologia, que os torna mais suscetíveis à utilização destas ferramentas, é que mesmo se escritos em texto livre, eles são geralmente bem estruturados. O problema é que estas ferramentas são principalmente desenvolvidas para Inglês e os relatórios são geralmente escritos na língua nativa do radiologista, que não é necessariamente o Inglês. Isso cria um obstáculo para a partilha de informação de Radiologia entre diferentes comunidades, partilha esta importante para compreender e tratar eficazmente problemas de saúde. Existem basicamente duas soluções possíveis para este problema. Uma solução é traduzir o próprio léxico que é utilizado pela ferramenta de Prospeção de Texto que se pretende utilizar. A outra é traduzir os próprios relatórios. Traduzir o léxico tem a vantagem de não necessitar de tradução contínua, ou seja, depois de traduzir um léxico para, por exemplo, Espanhol, podemos usá-lo para processar tantos relatórios Espanhóis não traduzidas conforme necessário. No entanto, quando uma nova versão do léxico é lançada as mudanças também precisam de ser traduzidas, caso contrário, o léxico traduzido ficaria desatualizado. Dada a crescente evolução de serviços de tradução hoje disponíveis, neste trabalho é avaliada a opção alternativa de traduzir os relatórios e verificar a sua viabilidade. Esta abordagem tem a vantagem de que os relatórios traduzidos seriam acessíveis a qualquer médico que entenda Inglês e as ferramentas estado da arte de Prospeção de Texto focadas em texto em Inglês podem ser aplicadas sem qualquer necessidade de adaptação. Se a tradução for feita por profissionais treinados em tradução de textos médicos, provavelmente pode-se assumir que informação não se perde no processo de tradução. Chamamos a este tipo de tradução Tradução Humana (Human Translation). Mas a utilização de tradutores especializados é cara e não escalável. Outra opção é usar Tradução Automática (Machine Translation). Não obstante a menor qualidade da tradução, é mais barata e mais viável em grande escala. Finalmente, uma opção que tenta obter o melhor dos dois mundos é usar Tradução Automática seguida de Pós-Edição (Post-Edition) por humanos. Nesta abordagem, o texto é automaticamente traduzido e, em seguida, a tradução é corrigida por um humano. Mais barata do que a opção de Tradução Humana e com melhor qualidade do que a de Tradução Automática. A escolha de abordagem de tradução é importante porque vai afetar a qualidade dos resultados das ferramentas de Prospeção de Texto. Atualmente não há nenhum estudo disponível publicamente que tenha fornecido evidência quantitativa que auxilie a fazer esta escolha. Isto pode ser explicado pela falta de um corpus paralelo que poderia ser usado para estudar este problema. Este trabalho explora a solução de traduzir os relatórios para Inglês antes de aplicar as ferramentas de Prospeção de Texto, analisando a questão de qual a abordagem de tradução que deve ser usada. Com este fim, criei MRRAD (Multilingual Radiology Research Articles Dataset), um corpus paralelo de 51 artigos portugueses de investiga ção relacionados com Radiologia, e uma série de traduções alternativas (humanas, automáticas e semi-automáticas) para Inglês. As versões originais dos artigos, em Português, e as traduções humanas foram extraídas automaticamente da biblioteca online SciELO. As traduções automáticas foram obtidas utilizando os serviços da Yandex e da Google e traduções semi-automáticas através dos serviços da Unbabel. Este é um corpus original que pode ser usado no avanço da investigação sobre este tema. Usando o MRRAD estudei que tipo de abordagem de tradução autom ática ou semi-automática é mais eficaz na tarefa de Reconhecimento de Entidades (Named-Entity Recognition ) relacionados com Radiologia mencionadas na versão em Inglês dos artigos. Estas entidades correspondem aos termos presentes no RadLex, que é uma ontologia que se foca em termos relacionados com Radiologia. A tarefa de Reconhecimento de Entidades é relevante uma vez que os seus resultados podem ser usadas em sistemas de Recuperação de Imagens (Image Retrieval ) e de Recuperação de Informação (Information Retrieval) e podem ser úteis para melhorar Sistemas de Respostas a Perguntas (Question Answering). Para realizar o Reconhecimento de termos do RadLex utilizei a API do Open Biomedical Annotator e duas diferentes configurações do software NOBLE Coder. Assim, ao todo utilizei três diferentes abordagens para identificar termos RadLex nos textos. A diferença entre as abordagens está em quão flexíveis ou estritas estas são em identificar os termos. Considerando os termos identificados nas traduções humanas como o padrão ouro (gold-standard ), calculei o quão semelhante a este padrão foram os termos identificados usando outras abordagens de tradução. Descobri que uma abordagem completamente automática de tradução utilizando o Google leva a micro F-Scores (entre 0,861 e 0,868, dependendo da abordagem de reconhecimento) semelhantes aos obtidos através de uma abordagem mais cara, tradução semi-automática usando Unbabel (entre 0,862 e 0,870). A abordagem de tradução utilizando os serviços da Yandex obteve micro F-Scores mais baixos (entre 0,829 e 0,831). Os resultados foram semelhantes mesmo no caso onde se consideraram apenas termos de RadLex pertences às sub-árvores correspondentes a entidades anatómicas e achados clínicos. Para entender melhor os resultados, também realizei uma análise qualitativa do tipo de erros encontrados nas traduções automáticas e semiautom áticas. A análise foi feita sobre os Falsos Positivos (FPs) e Falsos Negativos (FNs) cometidos pelas traduções utilizando Yandex, Google e Unbabel em 9 documentos aleatórios e cada erro foi classificado por tipo. A maioria dos FPs e FNs são explicados não por uma tradução errada mas por outras causas, por exemplo, uma tradução alternativa que leva a uma diferença nos termos identificados. Poderia ser esperado que as traduções Unbabel tivessem muitos menos erros, visto que têm o envolvimento de humanos, do que as da Google, mas isso nem sempre acontece. Há situações em que erros são até adicionados mesmo durante a etapa de Pós-Edição. Uma revisão dos erros faz-me propor que isso poderá ser devido à falta de conhecimento médico dos editores (utilizadores responsáveis por fazer a Pós-Edição) atuais da Unbabel. Por exemplo, um stroke (acidente vascular cerebral) é algo que ocorre no cérebro, mas num caso foi usado como algo que acontece no coração - alguém com algum conhecimento sobre a medicina não faria este erro. Mas a verdade é que a Unbabel atualmente não se foca em conteúdo médico. Prevejo que se eles o fizessem e investissem em crescer uma comunidade de utilizadores especialistas com melhor conhecimento da linguagem médica, isso levaria a melhores resultados. Dito isto, os resultados deste trabalho corroboram a conclusão de que se engenheiros de software tiverem recursos financeiros limitados para pagar por Tradução Humana, ficarão melhor servidos se usarem um serviço de tradução automática como a Google em vez de um serviço que implementa Pós-Edição, como a Unbabel. É claro que talvez haja melhores serviços de Tradução Automática do que a Google ou melhores serviços de Tradução Automática + Pós-Edição do que a Unbabel oferece atualmente para o campo médico, e isso é algo que poderia ser explorado em trabalhos futuros. O corpus MRRAD e as anotações utilizadas neste trabalho podem ser encontradas em https://github.com/lasigeBioTM/MRRAD.Radiology reports describe the results of radiography procedures and have the potential of being an useful source of information which can bring benefits to health care systems around the world. One way to automatically extract information from the reports is by using Text Mining tools. The problem is that these tools are mostly developed for English and reports are usually written in the native language of the radiologist, which is not necessarily English. This creates an obstacle to the sharing of Radiology information between different communities. This work explores the solution of translating the reports to English before applying the Text Mining tools, probing the question of what translation approach should be used. Having this goal, I created MRRAD (Multilingual Radiology Research Articles Dataset), a parallel corpus of Portuguese research articles related to Radiology and a number of alternative translations (human, automatic and semiautomatic) to English. This is a novel corpus which can be used to move forward the research on this topic. Using MRRAD, I studied which kind of automatic or semi-automatic translation approach is more effective on the Named-entity recognition task of finding RadLex terms in the English version of the articles. Considering the terms identified in human translations as the gold standard, I calculated how similar to this standard were the terms identified using other translation approaches (Yandex, Google and Unbabel). I found that a completely automatic translation approach using Google leads to micro F-Scores (between 0.861 and 0.868, depending on the identification approach) similar to the ones obtained through a more expensive semi-automatic translation approach using Unbabel (between 0.862 and 0.870). To better understand the results I also performed a qualitative analysis of the type of errors found in the automatic and semi-automatic translations. The MRRAD corpus and annotations used in this work can be found at https://github.com/lasigeBioTM/MRRAD

    Mobile robot electronic system with a network and microcontroller based interface

    Get PDF
    Integrated Masters at Electronics and Computers EngineeringNowadays mobile robots are expected to be a desire at several services to afford man facilities and increase safety in any kind of duties. Mobility is a key issue in robotics and a challenging subject for any research and development. It combines cognitive capabilities focused on sensorial input and human interaction with intelligent control of the drive systems and requires real mechatronics engineering solutions to enable robust and reliable operation. In the European Centre for Mechatronics [W1] mobile robots have been research subjects for years. A mobile platform with semi-autonomous functionality has been developed years ago. It has been used as a demonstration and test platform to study mobility and cognitive control. In the University of Minho [W3] and RWTH University [W2] that kind of research is also important and the industry support gives a solid development sign to the institutions. As the control system capacity on board of the vehicle has reached limits, a new system architecture with more powerful controller elements was planned to replace the old one. In this context the key objective of the project was to design and develop a new embedded system capable of controlling the mobile platform drives using ATMega microcontroller technology

    Task-driven tools for requirements engineering

    Get PDF
    This research aims at designing and evaluating a new generation of usable and multimodal Require ments and Analysis Tools, capable of promoting arti fact co-evolution in a useful manner, enabling coop eration and communication of multiple stakeholders over a common semantic model. The main goal is to leverage the elicitation of functional and non functional requirements by using multimodal interac tion techniques, and driving software development using a conceptual architecture easily extracted from user task flows.info:eu-repo/semantics/publishedVersio
    corecore